#AI 晶片
1596億!AI晶片超級獨角獸誕生
融資69億元,AMD參投。近日,美國AI晶片獨角獸Cerebras Systems宣佈完成10億美元(約合人民幣69億元)F輪融資,估值達到230億美元(約合人民幣1596億元)。本輪融資由Tiger Global領投,Benchmark、Fidelity Management & Research Company、Atreides Management、Alpha Wave Global、Altimeter、AMD、Coatue以及1789 Capital(合夥人包括小唐納德·川普)等機構跟投。成立於2015年的Cerebras,以餐盤大小的AI晶片而聞名。其晶圓級引擎3(WSE-3)晶片是全球最大、速度最快的AI晶片,體積是當前最大GPU的56倍,單位計算功耗卻遠低於同類產品,同時推理和訓練速度比競品快20倍以上。其晶片用於處理AI推理所需的順序執行、記憶體密集型工作負載。與需要在晶片和記憶體之間來回傳輸資料的GPU不同,WSE將所有運算都保存在晶片內部,從而消除了限制GPU推理能力的記憶體頻寬瓶頸。Cerebras上一輪融資是在2025年9月宣佈完成的11億美元(約合人民幣76億元)G輪融資,當時投後估值為81億美元(約合人民幣562億元)。相比當時,最新估值增長近184%。這也是Cerebras自2025年10月撤回其在美國IPO申請以來的首輪融資,凸顯了一個更廣泛的趨勢,即由於公開市場之外有充足的資本,企業會保持私有狀態更長時間。官網顯示,Cerebras之前的投資方還包括高通、台積電等晶片巨頭,以及OpenAI聯合創始人兼首席執行長Sam Altman、前OpenAI首席科學家Ilya Sutskever、Stripe前首席技術官Greg Brockman、前Facebook首席技術官兼Quora首席執行長Adam D'Angelo、英特爾首席執行長陳立武、前AMD首席技術官兼企業副總裁Fred Weber等知名個人投資者。Cerebras聯合創始人兼首席執行長Andrew Feldman聲稱,其硬體運行AI模型的速度比輝達的系統快數倍,並向Meta、IBM、Mistral AI等客戶提供遠端計算服務。據外媒本周報導,OpenAI正在尋找輝達的AI推理晶片替代方案,包括Cerebras、AMD和Groq。儘管OpenAI對替代方案持保留態度,但輝達還是與包括Cerebras和Groq在內的幾家研發大量使用SRAM晶片的公司接洽,探討潛在的收購事宜。此後,輝達與初創公司Groq簽署了授權協議,並吸納了該公司的大量晶片人才。這進一步提振了業界對AI晶片企業的熱情。Cerebras拒絕了收購,並與OpenAI達成了一項商業協議,該協議已於今年1月聯合公佈。OpenAI將採用部署750兆瓦規模的Cerebras晶圓級系統,為OpenAI客戶提供服務。該基礎設施將從2026年開始分階段建設,預計“持續到2028年”,並由Cerebras託管,屆時將成為全球規模最大的高速AI推理部署項目。知情人士向外媒透露,該協議價值超過100億美元(約合人民幣694億元)。根據聲明,Cerebras和OpenAI自2017年以來一直在探索合作的可能性,Cerebras上的大語言模型能比基於GPU的系統快15倍地響應。Cerebras在1月發佈的部落格文章中寫道,過去6個月,4家AI領域重要公司斥巨資,力圖提升推理速度,但他們都沒有選擇當前在AI領域佔據主導地位的輝達硬體。Google雖是輝達最大的客戶之一,但自主研發了Ironwood TPU,其推理速度是輝達GPU的4倍。Anthropic也投入數百億美元用於Google的TPU基礎設施建設。輝達斥資200億美元收購了AI推理晶片公司Groq的智慧財產權和頂尖人才。OpenAI剛剛從Cerebras獲取了價值750兆瓦的計算資源。這些收購和投資標誌著硬體向更新、最先進的AI最佳化硬體設計過渡的開始。 (FDA365電子論壇)
為什麼我長期看好納斯達克100:我買的不是技術,而是一套會自我進化的系統
為什麼我長期看好納斯達克100:我買的不是技術,而是一套會自我進化的系統很多人看好納斯達克100,是因為 AI、晶片、雲端運算、網際網路。但如果只停留在這些理由上,這個判斷其實並不牢固。因為技術會更替,公司會犯錯,周期會反覆。真正能穿越時間的,從來不是某一代風口,而是那套能長期把“聰明”變成“回報”的制度系統。我之所以會從“追風口”,走到今天這種判斷,是付過真實代價的。我在大廠、中小公司、創業和副業裡都打過滾,A 股十幾年、港美股 6 年,踩過足夠多的坑之後,才慢慢理解一件事:中小公司顛覆頭部公司是小機率事件,強者恆強才是常態,而物極必反往往需要極長周期。普通人最危險的,從來不是沒機會,而是被一次“看起來很確定”的機會,騙走了全部籌碼。一、我看好納斯達克100,本質是在看好什麼?一句話總結:它通過一套成熟機制,把全球最頂尖的人才,持續匯聚、篩選,並最終資本化。納斯達克100不是簡單的“美國公司指數”,而更像是一個全球頂級人才的終極定價中心。它從全球數十億人口中吸引最優秀的一小撮人:工程師科學家創業者產品與管理人才他們未必忠於某個國家,但高度忠於一個東西:回報函數。而納指體系,恰恰是目前全球最擅長把“能力 → 規模 → 資本回報”串成閉環的地方。二、指數基金的真正價值:不是分散,而是“糾錯”很多人以為,買納斯達克100,是在押注那 100 家公司。但實際上,你通過指數基金押注的是一套制度與糾錯機制:允許失敗獎勵成功保護產權鼓勵併購與重組納指100會定期調整成分股:失敗者被淘汰新贏家被納入你不需要預測誰會出局、誰會上位,系統會替你完成這件事。這正是指數基金對普通人最大的意義:用最低的認知成本,參與一個會自我更新的生態。三、為什麼這個系統總能獲得“估值溢價”?納指100真正的壁壘,並不只是公司本身。而是一個高度密集的“認知環境”:頂級人才頂級資本頂級投行頂級併購顧問在同一個市場裡高頻互動。這會帶來一種結果:同樣一項技術,在這裡被理解、被定價、被資本化的速度,遠快於其他市場。這就是所謂的認知密度溢價。當然,溢價是雙刃劍:它提高長期回報潛力也意味著在情緒極端時,泡沫和回撤會非常劇烈這不是缺陷,而是你必須接受的代價。四、反直覺的一點:大公司並不“笨重”很多人擔心:大公司會不會被新技術顛覆?從現實來看,真正的問題往往不是“看不見趨勢”,而是是否有能力為轉向買單。納指頭部公司的核心優勢在於:充沛現金流股票作為併購貨幣可以直接“用資本買時間”當方向明確時,它們不需要內部孵化十年,而是直接收購賽道。當然,大公司也會犯錯,但它們更擅長犯錯後不出局。五、這套系統對投資者的真實考驗是什麼?不是判斷能力,而是承受能力。納斯達克100歷史上經歷過多次極端回撤:網際網路泡沫金融危機加息周期買入並長期持有,意味著你必須接受:大幅回撤長時間不回本市場情緒的反覆折磨這不是系統失效,而是系統運轉時必然伴隨的波動成本。這是用“少操作”,換“高波動”的交易。系統會進化,但你能不能熬住,是另一回事。六、為什麼說它更像一張“時代門票”?納斯達克100,並不能保證你賺多少錢。它真正提供的是一件事:讓普通人以相對可控的方式,參與全球科技進步的長期成果分配。這不是致富捷徑,而是一種“不過早出局”的選擇。結語如果你追求的是一年翻倍,這套邏輯會讓你失望。如果你想的是未來二十年,把有限的資本和注意力,放在一個最不容易被時代拋下的系統裡——那麼,納斯達克100指數基金,至少是目前最值得認真研究和配置的選項之一。它不承諾賠率,只提供機率;不保證平坦,但儘量避免你押錯整個方向。而對普通人來說,能清楚自己在參與什麼系統、承擔什麼風險,本身就是這個時代最稀缺的確定性。 (火芯時代)
馬斯克直言不諱:舊世界只剩5年,中國手握唯一的王牌,不是晶片
馬斯克最近的表態,給全球科技圈潑了盆冷水,2026 年 1 月達沃斯論壇上,他說人類從碳基轉矽基只剩 2000 天左右,也就 5 年多點。這話一出口,整個科技圈都炸鍋了,大家聊 AI 總盯著晶片、演算法,馬斯克卻點破核心:真正的堵點在電力上,而中國偏偏在電力上佔了大便宜。馬斯克談電力,是因為親身經歷美國電網的尷尬,xAI 建資料中心,申請電力要等 18 個月,只能臨時用燃氣輪機,成本高還不環保。相比之下,中國能源系統效率全球領先,西部太陽能風電豐富,46 條特高壓直送東部資料中心,貴安新區 2025 年資料中心用電量漲 56%。這套體系是長期積累的,馬斯克直言美國電網像老古董,中國風光並網准、調度智能,遠端傳輸穩定率全球第一。全球晶片產量暴漲,電力增長率卻只有 3%-4%,輝達 GPU 再牛,沒電也只能閒置,中國早佈局東數西算,避開了這個坑。馬斯克預測 Optimus 機器人 2027 年量產,但前提是電要跟上,要不然一切都是紙上談兵。中國電力王牌不是憑空來的,2023 年發電量是美國兩倍,太陽能裝機全球第一,特高壓技術全球獨步,送電損耗幾乎可忽略。晶片圍堵存在,但黑芝麻 Huashan A2000 晶片能全球銷售,說明晶片能追,電力基建卻需十年磨一劍,中國做到了。馬斯克說中國韌性無法封鎖,中美聯合的導向自刻蝕技術,也是中國系統演進的體現。馬斯克的預言不是恐慌,是提醒轉型窗口期短,中國的西部送電、東部算力、國產自研,都是實打實的機會。中國不靠喊口號,在每個環節攥緊主動權,未來全球 AI 玩家大機率只剩 xAI、Google 和中國。馬斯克有三步計畫,中國已在前兩步領先,變革就在眼前,留給舊世界的日子不多了。中國用好這張電力王牌,不光能領跑 AI,還能催生新生產力,未來不是預言決定的,是當下幹出來的。 (科技直擊)
台灣拒絕發展核電,僅有的資產就快要被掏空敗光了!死潦屘仔子!
讚!辦實事
1
ༀ་ཨ་ར་པ་ཙ་ནཱ་དྷཱི༔     中國加油      🙏🙏🙏
1
AI晶片在華營收將下滑74%,AMD股價暴跌17.31%!
美國東部時間2月3日盤後,處理器大廠AMD披露2025年第四財季及全年財報,營收和獲利均創下歷史新高,但由於對2026財年第一財季的指引不不夠“超預期”,以及來自中國市場的AI晶片營收大幅下滑,導致AMD股價暴跌17.31%。四季度淨利大漲42%AMD第四季度102.7億美元,同比增長34%,超出市場預估的96.5億美元,創歷史新高。在Non-GAAP準則下,淨利潤同比增長42%至25.2億美元,創歷史新高;毛利率達到57%;營業利潤為創紀錄的29億美元;淨利為25億美元,EPS為1.53 美元,同創歷史新高。從具體的業務部門表現來看,資料中心(Data Center)業務部門第四季營收資料中心業務收入創下53.8億美元的紀錄,同比增長39%,超過了50.7億美元的市場預期。增長引擎主要來自AMD EPYC 伺服器處理器的強勁需求及AMD Instinct GPU 出貨攀升。這也得益於面向中國的人工智慧晶片銷售意外實現了大幅增長,這也促使了其當季營收和盈利雙雙好於預期。財報顯示,在第四季度,AMD 因釋放了約 3.6 億美元此前預留的 Instinct MI308 庫存及相關費用而獲益。第四季度 AMD Instinct MI308 出貨到中國的收入約為 3.9 億美元。若不計入存貨跌價準備轉回以及 AMD Instinct MI308 對中國的銷售,基於非GAAP標準,第四季度的毛利率約為 55%。若不將MI308的銷售額計算在內,AMD第四季度整體銷售額本應達到98.8億美元,儘管仍然高於市場預期,但資料中心業務的收入將僅為49.9 億美元,低於預期。客戶端(Client)業務部門,營收創下31 億美元紀錄,同比增長34%。這得益於企業為因應對AI工作負載正迅速增加運算資源,導致對CPU 的需求呈現“爆炸性增長(going gangbusters)”,推動Ryzen處理器市佔率顯著提升。遊戲(Gaming)業務部門,受益於半定製化業務與Radeon GPU 需求,第四季營收達8.43 億美元,同比大漲50%。嵌入式(Embedded)業務部門第四季營收9.5 億美元,同比增長3%,顯示終端需求回暖,但全年受庫存調整影響微幅下滑3%。2025財年營收同比增長34%2025財年,AMD營收346億美元,同比增長34%,創歷史新高紀錄;營業利潤為78億美元;淨利潤(Non-GAAP)68.3億美元,同比增長26%;EPS 則為4.17 美元。其中,資料中心業務全年營收則達166 億美元,同比增長32%。AMD執行副總裁暨首席財務官Jean Hu 指出,這份成績單證明了公司在規模化營運下實現獲利成長的能力,特別是創造了破紀錄的自由現金流,為未來的策略性投資提供了充足資金。一季度中國AI晶片銷售環比暴跌74%雖2025財年第四季及全年多項業績均創下歷史新高,並超出市場的預期,但是AMD對於2026財年第一季的業績指引卻並未達到投資人渴望看到更具“爆發力”的指引。AMD預計2026 年第一季營收約為98億美元(加減3 億美元),其中間值已經高於華爾街分析師平均預期的93.8億美元。但對於期待AI 浪潮能帶來指數級成長的投資人而言,這份財測顯得相對疲軟。部分市場分析師認為,考慮到全球AI 支出的狂熱程度及大規模資料中心建置潮,加上AMD 先前宣佈與OpenAI 和Oracle 等雲端大廠合作,市場原本預期會有更強勁的短期爆發力。此外,AMD還預計2026 年第一季來自中國市場的AMD Instinct MI308 銷售額約為1億美元,這與2025 年第四季約3.9 億美元的營收相較,出現環比74.36%的大幅下跌。由於第一季財測指引不夠強勁,再加上對於來自中國市場資料中心業務營收的大幅下滑,導致AMD股價在盤後大跌,2月4日的美股交易當中更是暴跌17.31%。摩根大通分析師Harlan Sur認為,AMD本次財報與指引屬於“喜憂參半”,尤其受到中國業務波動的影響。他指出,雖然第一季度指引好於預期,但AMD能否實現更強的經營槓桿仍存疑,這可能成為股價的持續壓力,或需到2026年下半年才能得到更清晰驗證。蘇姿丰:市場需求非常強勁針對股價暴跌與市場對財測疲軟的質疑,AMD CEO蘇姿丰駁斥了增長放緩的論點。蘇姿丰在財報電話會上表示,“AI 的加速發展速度是我始料未及的。目前的市場狀況是需求持續超過運算能力的供給,而非需求疲軟”。蘇姿丰還表示,公司在過去兩到三個月內,確實看到了需求的進一步提升。不僅資料中心業務正在加速,企業端對CPU 的需求也非常強勁。蘇姿丰還透露,全球十大AI公司中已經有八家使用AMD的Instinct晶片支援生產工作負載。預計未來三到五年資料中心收入每年將增長60%,到2027年時,AMD的AI收入將達“數百億美元”。蘇姿丰還預計,2026 年下半年AMD 將開始出貨名為「Helios」的新型整合式伺服器級AI 系統。她承諾該產品發佈正按計畫進行,並將在下半年為公司帶來顯著的成長轉折(Inflection Point)。 (芯智訊)
美國安全審查突襲,中國H200訂單全線凍結!
英國《金融時報》今日援引三位白宮及國會消息人士稱,美國國家安全委員會(NSC)於2月3日啟動新一輪對華AI晶片安全審查,已要求輝達暫停所有H200對華銷售申請,待審查結束後方可重啟批文流程。這意味著原本已獲“口頭放行”的50萬顆H200再次停擺,中國雲廠商春節前搶貨計畫被迫中斷。審查焦點在於“中國潛在用途”與CUDA生態技術外溢風險。NSC擔心,H200雖低於70 TFLOPS紅線,但可通過堆疊組成超算叢集,用於高超音速模擬與情報分析。國會助手透露,此次審查可能持續45-60天,且不排除將H200納入《國際武器貿易條例》(ITAR)管制清單。輝達凌晨回應,將“全面配合政府審查”,並暫停向中國客戶傳送任何新銷售要約。公司已通知阿里、字節等大客戶:已預付但未清關的訂單將暫緩發貨,可選擇退款(扣除物流與關稅成本)或轉口至第三國。現貨市場應聲跳漲:香港倉庫提貨價從4.2萬美元回彈至5萬美元,中間商開始囤貨待漲。中國國產GPU廠商連夜促銷:寒武紀MLU 300現貨價下調至0.95萬美元,並提供120天帳期;摩爾線程把S5000租金再降20%,諮詢量兩日增長3倍。業內普遍認為,若審查持續至4月,中國雲廠商將被迫擴大中國國產卡採購,2026年中國國產AI晶片市佔率有望從18%躍升至35%。對於仍在擴建的中國國產GPU、HBM與封裝產業鏈而言,美國再次“關門”意味著9個月替代窗口正式開啟。 (晶片行業)
巨頭加速拋棄輝達
微軟也加入了大型科技公司擺脫對輝達依賴的浪潮,推出了自己的人工智慧(AI)晶片。各大科技公司都在開發定製晶片或尋求供應商多元化,以降低對輝達的依賴——輝達佔據了AI晶片市場90%的份額。然而,輝達以其圖形處理器(GPU)為代表,正通過建構AI工廠展開反擊。它不再僅僅銷售GPU,而是通過垂直整合晶片、伺服器、軟體和模型,轉型為一家“全端AI”基礎設施公司,決心不放棄其在AI市場的領導地位。預計輝達今年將成為台積電最大的客戶。儘管一年前中國市場曾因DeepSeek晶片強調性價比而引發“衝擊”,但輝達的股價和銷售額依然大幅增長。加速擺脫輝達由於價格高昂、供應短缺以及封閉的生態系統(CUDA),大型科技公司正在加速擺脫對輝達GPU的依賴。NVIDIA GPU的高昂成本是關鍵驅動因素。它們不僅價格昂貴,而且供應常常無法滿足需求,導致及時採購困難重重。此外,儘管NVIDIA晶片用途廣泛,但它們並未針對特定公司的特定AI任務進行最佳化。因此,大型科技公司正在開發專為自身資料中心、AI模型和服務量身定製的晶片,以提高能效。當地時間26日,微軟發布了其首款商用AI晶片“Maia 200”。此前,微軟曾在2023年11月推出過“Maia 100”,該晶片用於微軟內部的Azure雲平台。這款新晶片在兩年後發佈,性能有所提升,採用台積電3奈米工藝,並整合了SK海力士的HBM3E視訊記憶體。Maia 200 專為高性能 AI 推理而設計——即訓練好的 AI 模型分析新資料以識別模式並做出預測或決策的過程。微軟表示:“在‘輕量級計算’方面,它的性能是 AWS 最新 AI 晶片的三倍,計算效率也高於Google的 AI 晶片。” 首席執行長薩蒂亞·納德拉表示:“這款產品旨在實現業界領先的推理效率,在同等預算下可提供高出 30% 的性能。” Maia 200 預計將支援 OpenAI 的最新 AI 模型 GPT-5.2 和微軟的 Copilot。為了跟上人工智慧的快速發展步伐,微軟也加快了晶片的生產和部署。“我們將從初始生產到資料中心部署的時間縮短到類似人工智慧基礎設施項目的一半以上,”該公司表示。微軟已在愛荷華州的資料中心安裝了該晶片,並計畫將其擴展到其他資料中心,以便Azure客戶能夠使用。路透社指出,“微軟可能會減少對輝達的依賴。”其他大型科技公司也在努力降低對輝達的依賴。Google使用其定製的張量處理單元 (TPU) 來訓練和運行其 Gemini AI 模型。TPU 專為 AI 而設計,在某些任務中性能優於 GPU,且功耗更低,從而降低了營運成本。AWS 上個月發佈了其 Trainium3 AI 晶片,該晶片擁有業界領先的能效。AWS 表示:“與之前的 Trainium2 相比,計算性能提升了四倍,而能耗降低了約 40%。”這款晶片用於訓練 AWS 的內部 AI 模型 Nova,並應用於面向客戶的雲服務中。Meta 開發了自己的 AI 晶片 MTIA,而 OpenAI 正在與博通合作開發一款定製晶片,計畫於今年下半年發佈。各公司也在推進供應鏈多元化。例如,Meta公司正在探討在其計畫於2027年投入營運的資料中心中使用Google的TPU。隨著人工智慧晶片需求的增長,Google——此前僅在內部使用TPU進行諸如Gemini訓練之類的任務——正計畫擴大外部銷售。Anthropic公司去年10月透露,其人工智慧模型Claude的建構和部署使用了超過100萬個AWS的Trainium2晶片。NVIDIA 的積極防禦儘管包括微軟在內的大型科技公司都是輝達的客戶,但一些分析師認為輝達的市場主導地位正在動搖。《華爾街日報》指出,“人工智慧公司正致力於實現資料中心人工智慧晶片供應商多元化”,並補充道,“他們的定製晶片對輝達構成了又一威脅。”然而,輝達的業務範圍已從人工智慧晶片擴展到人工智慧模型和機器人領域。即使其在人工智慧晶片市場的份額略有下降,該公司仍致力於保持其作為一家擁有完善人工智慧生態系統的企業的競爭力。除了GPU之外,輝達還在積極供應中央處理器(CPU),即計算的核心。就在同一天,輝達宣佈向資料中心營運商CoreWeave追加20億美元的投資,計畫在其資料中心部署自家的CPU。彭博社指出:“這是輝達首次獨立向客戶供應CPU,對英特爾和AMD構成了挑戰。”NVIDIA 在人工智慧模型開發方面也積極進取。它發佈了一款開源天氣預報人工智慧模型。此外,它還在開發用於自動駕駛汽車的 Alpamayo 和用於推理的 Cosmos。為了迎接物理人工智慧時代,NVIDIA 營運著 Omniverse 平台,這是一個數字訓練場,機器人可以在虛擬空間中進行模擬和協作。近期收購 Groq 等公司,使 NVIDIA 得以鞏固其在人工智慧推理市場的技術地位。其目標是使 NVIDIA 基礎設施即使在推理階段也至關重要,即人工智慧應用於現實世界場景的階段。預計輝達今年將超越蘋果,成為台積電最大的客戶。科技諮詢公司Creative Strategists預測,2025年台積電營收的22%(330億美元,約合48兆韓元)將來自輝達,而蘋果的貢獻為270億美元(18%)。2024年,蘋果是台積電最大的客戶(佔22%),輝達緊隨其後(12%)。短短兩年內,輝達在台積電營收中的份額將增長10個百分點,成為台積電的頭號客戶。 (半導體芯聞)
至少有九家中國AI晶片公司出貨量超萬卡
萬卡級出貨量企業的批次出現,並不意味著國產AI晶片的競爭已經分出勝負,而意味著這一輪產業試錯開始進入“規模化交付驗證”階段在嚴格的晶片出口管制的倒逼下,國產資料中心AI晶片的自主化處理程序正在加速。目前,國產AI晶片包括華為昇騰、百度崑崙芯、阿里平頭哥、寒武紀等十余個品牌。《財經》多方調研獲悉,至少有九家中國AI晶片公司的出貨量或訂單量已超過1萬卡。其中包括華為昇騰、百度崑崙芯等背靠科技大廠的企業,還包括寒武紀、沐曦、天數智芯、燧原科技等AI晶片上市和將上市企業,甚至包括曦望(Sunrise)、清微智能等仍在創業階段的非上市公司。其中出貨規模大的AI晶片公司,累計出貨量已在10萬卡等級。出貨量相對較小的AI晶片公司,如曦望、清微智能等2025年出貨量或訂單規模在1萬卡以上。國產推理AI晶片單價目前單卡價格約在3萬-20萬元不等。出貨量或訂單量達到萬卡規模,意味著國產AI晶片的性能、穩定性和總擁有成本具備一定市場認可度。它開啟的不只是規模競爭,更是圍繞穩定性、軟體生態和商業化服務的更深層次、更全方位的競爭。一批大大小小的AI晶片公司出貨規模快速增長,國產AI晶片的市場份額因此迅速攀升。國際市場調研機構IDC 2025年10月資料顯示,2025年上半年中國加速(即AI晶片)伺服器市場規模達到160億美元,出貨超過190萬張。其中輝達約佔62%市場份額,國產AI晶片約佔35%市場份額。國產AI晶片需求持續增長,增長速度遠超輝達。多位半導體產業人士對《財經》表示,2026年隨著國產AI晶片的代工產能逐漸提升,國產AI推理晶片的出貨量還將迎來一輪爆發式增長。不過,萬卡級出貨量企業的批次出現,並不意味著國產AI晶片的競爭已經分出勝負,而意味著這一輪產業試錯開始進入“規模化交付驗證”階段。萬卡出貨量的中國AI晶片公司湧現萬卡等級出貨量的國產AI晶片公司正在批次湧現。華為昇騰、百度崑崙芯是出貨規模最大的國產AI晶片。它們背靠大型科技公司,有穩定的客戶。華為昇騰、百度崑崙芯性能表現突出,甚至已被用於部分模型訓練場景。國際市場調研機構IDC資料顯示,2025下半年國產AI晶片中,華為昇騰市場份額位居國內第一,百度崑崙芯市場份額位居國內第三。華為昇騰已經被用於電信營運商、科技公司的多個國產萬卡叢集。百度2025年2月點亮了崑崙芯P800萬卡叢集,並計畫未來點亮三萬卡叢集。除了百度,一批金融、能源、製造等領域的大型企業都在採購百度崑崙芯。寒武紀也是國內出貨量最大的國產AI晶片之一。其主要客戶包括國內大型網際網路公司、電信營運商和金融機構等。2025下半年-2026年初,沐曦、摩爾線程、天數智芯、燧原科技等AI晶片創業公司先後發佈招股書。招股書顯示,沐曦、天數智芯、燧原科技的累積出貨量均已超過萬卡。沐曦招股書披露,截至2025年8月末,沐曦AI晶片累計銷量超過2.5萬卡,已在多個國家人工智慧公共算力平台、電信營運商智算平台和商業化智算中心實現規模化應用。天數智芯招股書披露,截至2025年6月30日,天數智芯已向金融、醫療、交通等行業的290名客戶交付5.2萬枚AI晶片。燧原科技招股書披露,截至2025年9月,燧原科技AI加速卡及模組出貨情況。經《財經》計算,燧原科技的AI加速卡及模組合計銷量為9.72萬張。《財經》瞭解到,包括曦望、清微智能等仍未上市的國產AI晶片公司出貨量或訂單量也已經超過萬卡。不過,它們和頭部國產AI晶片公司的出貨量仍存在明顯差距。曦望前身是商湯科技的大晶片部門,2024年底分拆獨立營運,該公司目前專注AI推理晶片的研發與商業化。曦望的投資方包括三一集團旗下華胥基金、範式智能、杭州資料集團,IDG資本、高榕創投、無極資本等知名機構,以及誠通混改基金、杭州金投、杭州高新金投等國資相關基金。曦望已經銷售啟望S1、啟望S2等AI推理晶片,2026年將量產啟望S3晶片。客戶包括商湯科技、第四範式等企業。在1月28日產品發佈會上,曦望方面披露2025年AI晶片交付破萬卡,收入大幅增長。清微智能是一家“清華系”的晶片創業公司。獲得了國家積體電路產業投資基金(大基金)投資,且是首批國家級專精特新“小巨人”。《財經》瞭解到,截至2026年1月,清微智能的AI晶片訂單量累計超過3萬卡,客戶包括部分地方城市的智算中心。一些國產AI晶片創業公司目前更關注能用、可控以及出貨規模,並非追求極致的峰值性能。部分國產AI晶片創業公司並未像輝達和頭部國產AI晶片公司使用7nm(奈米)及以下的先進製程以及HBM(高頻寬記憶體)記憶體。目前國產7nm(奈米)及以下的先進製程、國產HBM記憶體產能極其有限。因此,它們直接採用了更成熟且中國大陸本土產業鏈能夠更快量產的12nm工藝製程和LPDDR(低功耗雙倍資料率記憶體)系列記憶體。這類國產AI晶片的價格甚至可低至3萬元/卡。2025年12月,AI基礎設施創業公司新智惠想創始人吳健對《財經》表示,他和十家以上的國產AI晶片企業都有接觸。他預計2026年-2027年中國市場還會有多款國產AI推理晶片上市,2026年-2027年會迎來爆發。部分國產AI晶片推理性能已超輝達H20目前,國產AI晶片的峰值性能和輝達存在巨大差距。中國市場的AI晶片數量和美國市場也存在巨大差距。降低國產AI晶片的推理成本,正在成為中國產業界的共同努力方向。因為當算力規模無法正面比拚時,決定差距的不是有多少晶片,而是每張晶片能吐出多少Token(詞元)。資料中心AI晶片的主要使用場景包括訓練和推理。推理AI晶片的設計、使用門檻相對較低,這裡是國產AI晶片突圍的重要機會。IDC資料顯示,2025年中國生成式AI IaaS(基礎設施)市場,訓練佔比49.6%、推理佔比50.4%。IDC預測,到2029年,訓練佔比將降至23.3%,推理佔比將提升至76.8%。因此,國產AI晶片公司普遍注重提升推理性能,“榨乾”每一枚晶片的Token。Token是模型推理的基本單位。當算力規模受限時,每秒能生成多少Token(Token/s),直接決定了AI服務的響應速度、吞吐量和成本。這是衡量晶片實際推理效率的核心指標。吳健表示,做好硬體適配、調度最佳化等工作,有可能將同樣的晶片、同樣的模型發揮出數倍甚至數十倍的Token吞吐性能。曦望CEO(首席執行長)徐冰1月28日在產品發佈會表示,2025年中國市場百萬Tokens的推理成本已經降至1元。曦望的目標是在這個基礎上用專用的推理晶片和系統架構,把百萬Tokens的降低至1分等級。曦望相關人士對《財經》表示,目前曦望主打AI推理性能,下一代啟望S3目標是,相比上一代產品AI推理性能提升十倍以上。在門檻更低、使用更廣泛的推理場景,部分國產AI晶片性能表現已接近或超過輝達H20。H20是一款為了符合美國出口管制政策,性能被大幅閹割的“中國特供”AI晶片。一位地方國企智算技術人士2025年12月曾對《財經》表示,他測試了華為昇騰910B、百度崑崙芯P800、阿里PPU等國產AI晶片的推理性能。百度崑崙芯P800、阿里PPU跑DeepSeek-R1和阿里千問等經過適配最佳化的模型,Token吞吐效率優於輝達H20。不過,在軟體生態層面,國產AI晶片目前普遍面臨適配慢、適配難的問題。不像輝達的晶片一樣,能被開發者快速適配市面上大部分模型。一位國產AI晶片創業公司人士對《財經》表示,他們目前主要適配DeepSeek、阿里千問、Meta的Llama系列等主流模型,其他模型無法及時、全面兼顧。上述地方國企智算技術人士對《財經》表示,他所在的企業為國產AI晶片適配新模型,通常要一兩個月。因此,往往無法第一時間用上最新的模型。一位人工智慧解決方案公司CEO甚至提到,Hugging Face(全球AI和大模型開源社區)上擁有超過200萬款模型,而某國產AI晶片適配的模型數量只有幾十款。多位半導體產業人士對《財經》表示,萬卡級出貨量企業的出現,意味著這一輪產業試錯正在進入“規模化交付驗證”階段。部分半導體產業人士的看法是,國產AI推理晶片市場正在出現與太陽能產業早期相似的路徑——在產業政策,以及產業引導基金、二級資本市場的推動下,多家廠商出貨量迅速攀升。一種樂觀預期是,中國的AI推理晶片市場未來幾年,將像中國的太陽能產業一樣,通過激烈的市場競爭跑出若幹個具備國際競爭力的企業。不過,另一種觀點是,太陽能是高度標準化的製造業產品,勝負最終由成本曲線與產能效率出清決定。AI晶片的產業發展邏輯由軟體、硬體和生態共同決定,它的競爭節奏與淘汰機制和太陽能產業存在本質差異。國產AI晶片上游受限於晶片代工企業的產能,下游受限於軟體生態。它的交付穩定性、軟體棧成熟度與生態遷移成本,決定了“萬卡之後”的復購與生存。中國AI晶片市場殘酷的競爭甚至尚未真正開始。 (財經雜誌)